Recent studies reveal that deep neural network (DNN) based object detectors are vulnerable to adversarial attacks in the form of adding the perturbation to the images, leading to the wrong output of object detectors. Most current existing works focus on generating perturbed images, also called adversarial examples, to fool object detectors. Though the generated adversarial examples themselves can remain a certain naturalness, most of them can still be easily observed by human eyes, which limits their further application in the real world. To alleviate this problem, we propose a differential evolution based dual adversarial camouflage (DE_DAC) method, composed of two stages to fool human eyes and object detectors simultaneously. Specifically, we try to obtain the camouflage texture, which can be rendered over the surface of the object. In the first stage, we optimize the global texture to minimize the discrepancy between the rendered object and the scene images, making human eyes difficult to distinguish. In the second stage, we design three loss functions to optimize the local texture, making object detectors ineffective. In addition, we introduce the differential evolution algorithm to search for the near-optimal areas of the object to attack, improving the adversarial performance under certain attack area limitations. Besides, we also study the performance of adaptive DE_DAC, which can be adapted to the environment. Experiments show that our proposed method could obtain a good trade-off between the fooling human eyes and object detectors under multiple specific scenes and objects.
translated by 谷歌翻译
在过去的十年中,深度学习急剧改变了传统的手工艺特征方式,具有强大的功能学习能力,从而极大地改善了传统任务。然而,最近已经证明了深层神经网络容易受到对抗性例子的影响,这种恶意样本由小型设计的噪音制作,误导了DNNs做出错误的决定,同时仍然对人类无法察觉。对抗性示例可以分为数字对抗攻击和物理对抗攻击。数字对抗攻击主要是在实验室环境中进行的,重点是改善对抗性攻击算法的性能。相比之下,物理对抗性攻击集中于攻击物理世界部署的DNN系统,这是由于复杂的物理环境(即亮度,遮挡等),这是一项更具挑战性的任务。尽管数字对抗和物理对抗性示例之间的差异很小,但物理对抗示例具有特定的设计,可以克服复杂的物理环境的效果。在本文中,我们回顾了基于DNN的计算机视觉任务任务中的物理对抗攻击的开发,包括图像识别任务,对象检测任务和语义细分。为了完整的算法演化,我们将简要介绍不涉及身体对抗性攻击的作品。我们首先提出一个分类方案,以总结当前的物理对抗攻击。然后讨论现有的物理对抗攻击的优势和缺点,并专注于用于维持对抗性的技术,当应用于物理环境中时。最后,我们指出要解决的当前身体对抗攻击的问题并提供有前途的研究方向。
translated by 谷歌翻译
预测组合在预测社区中蓬勃发展,近年来,已经成为预测研究和活动主流的一部分。现在,由单个(目标)系列产生的多个预测组合通过整合来自不同来源收集的信息,从而提高准确性,从而减轻了识别单个“最佳”预测的风险。组合方案已从没有估计的简单组合方法演变为涉及时间变化的权重,非线性组合,组件之间的相关性和交叉学习的复杂方法。它们包括结合点预测和结合概率预测。本文提供了有关预测组合的广泛文献的最新评论,并参考可用的开源软件实施。我们讨论了各种方法的潜在和局限性,并突出了这些思想如何随着时间的推移而发展。还调查了有关预测组合实用性的一些重要问题。最后,我们以当前的研究差距和未来研究的潜在见解得出结论。
translated by 谷歌翻译
大型数据集对于深度学习模型的开发非常重要。此类数据集通常需要繁重的注释工作量,这是非常耗时和昂贵的。为了加速注释过程,可以采用多个注释器来标记数据的不同子集。但是,不同的注释器之间的不一致和偏差对模型培训有害,特别是对于定性和主观的任务。在本文中解决了这一挑战,我们提出了一种新的对比回归框架来解决每个样本的不相交的注释问题仅由一个注释器和多个注释器标记在数据的不相交子集上工作。要考虑到注释器内的一致性和间歇委员会间不一致,使用了两种策略。过度,应用基于对比的损失来学习相同注释者的不同样本之间的相对排名,假设排名来自相同注释器的样本是一致的。其次,我们应用渐变反转层以学习不变的稳健表示到不同的注释器。对面部表情预测任务的实验,以及图像质量评估任务,验证了我们提出的框架的有效性。
translated by 谷歌翻译
在本文中,我们提出了一个具有转型的自我解释的模型网站,其变革的解释。我们专注于几何变换解释的鲁棒性和自我一致性。除了转型设备,作为一个自我解释的模型,网站与基准黑匣子分类器具有相当的表现力,同时能够以高质量呈现忠诚和强大的解释。值得注意的是,虽然在大多数CNN可视化方法中应用,但是Bilinear上采样近似是粗略近似,其只能提供热量的形式(而不是像素方面)的解释。无论这些解释是否可以直接到输入空间,它仍然是一个开放问题(如MNIST实验所示)。此外,我们考虑了我们模型中的翻译和旋转变换。在未来的工作中,我们将探讨更复杂的转换下的强大解释,例如缩放和失真。此外,我们阐明了该网站不限于几何转换(我们在计算机视觉域中使用的),并将在将来的工作中探索其他域名。
translated by 谷歌翻译
由于其在不同领域的应用继续扩大和多样化,因此机器学习的公平正在越来越越来越受到关注。为了减轻不同人口组之间的区分模型行为,我们介绍了一种新的后处理方法来通过组感知阈值适应优化多个公平性约束。我们建议通过优化从分类模型输出的概率分布估计的混淆矩阵来学习每个人口统计组的自适应分类阈值。由于我们仅需要模型输出的估计概率分布而不是分类模型结构,我们的后处理模型可以应用于各种分类模型,并以模型 - 不可知方式提高公平性并确保隐私。这甚至允许我们在后处理现有的公平方法,以进一步提高准确性和公平性之间的权衡。此外,我们的模型具有低计算成本。我们为我们的优化算法的收敛性提供严格的理论分析和我们方法的准确性和公平性之间的权衡。我们的方法理论上使得能够在与现有方法相同的情况下的近最优性的更好的上限。实验结果表明,我们的方法优于最先进的方法,并获得最接近理论精度公平折衷边界的结果。
translated by 谷歌翻译
物体检测中的物理对抗攻击引起了越来越受到关注。然而,最先前的作品专注于通过生成单独的对抗贴片来隐藏来自探测器的物体,该贴片仅覆盖车辆表面的平面部分并且无法在物理场景中攻击多视图,长距离和部分封闭的探测器对象。为了弥合数字攻击与物理攻击之间的差距,我们利用完整的3D车辆表面来提出坚固的全面覆盖伪装攻击(FCA)到愚弄探测器。具体来说,我们首先尝试在整个车辆表面上渲染非平面伪装纹理。为了模仿现实世界的环境条件,我们将引入转换功能,将渲染的伪装车辆转移到照片现实场景中。最后,我们设计了一个有效的损失功能,以优化伪装纹理。实验表明,全面覆盖伪装攻击不仅可以在各种测试用例下优于最先进的方法,而且还可以推广到不同的环境,车辆和物体探测器。 FCA的代码可用于:https://idrl-lab.github.io/full-coverage-camouflage -Adversarial-Attack/。
translated by 谷歌翻译
在2019年的大流行病(Covid-19)感染SARS-COV-2的小型冠状病病(Covid-19)中,很快就迅速进行了大量的预防和治疗药物研究,但迄今为止,这些努力取得了不成功。我们的目标是利用药物重新淘点的管道优先考虑可重复的药物,系统地整合多个SARS-COV-2和药物相互作用,深图神经网络和基于体外/人口的验证。我们首先通过CTDBase收集涉及Covid-19患者治疗的所有可用药物(n = 3,635)。我们基于病毒诱饵,宿主基因,途径,药物和表型之间的相互作用构建了SARS-COV-2知识图。基于生物相互作用,使用深图神经网络方法来得出候选表示。我们利用临床试验验证药物优先考虑候选药物,然后用它们的遗传谱,体外实验疗效和电子健康记录验证。我们突出了前22名药物,包括阿奇霉素,阿托伐他汀,阿司匹林,对乙酰氨基酚和阿巴替代醇。我们进一步确定了可能协同靶向Covid-19的药物组合。总之,我们证明了广泛的相互作用,深度神经网络和严格验证的整合可以促进Covid-19治疗的候选药物的快速鉴定。这是一个post-poser-review,在科学报告中发布的文章的Pre-Copyedit版本最终经过身份验证版本可在线获取:https://www.researchsquare.com/article/rs-114758/v1
translated by 谷歌翻译
在变异场景中已经揭示了对抗性实例的现象。最近的研究表明,精心设计的对抗性防御策略可以改善深度学习模型针对对抗性例子的鲁棒性。但是,随着国防技术的快速发展,由于现有手动设计的对抗性攻击的性能较弱,因此很难评估防御模型的鲁棒性。为了应对挑战,鉴于防御模型,需要进一步利用有效的对抗性攻击,较少的计算负担和较低的健壮精度。因此,我们提出了一种用于自动对抗攻击优化设计的多目标模因算法,该算法实现了对近乎最佳的对抗性攻击对防御模型的近乎最佳的对抗性攻击。首先,构建了自动对抗攻击优化设计的更通用的数学模型,其中搜索空间不仅包括攻击者操作,大小,迭代号和损失功能,还包括多个对抗性攻击的连接方式。此外,我们开发了一种组合NSGA-II和本地搜索以解决优化问题的多目标模因算法。最后,为了降低搜索过程中的评估成本,我们根据模型输出的每个图像的跨熵损失值的排序提出了代表性的数据选择策略。关于CIFAR10,CIFAR100和Imagenet数据集的实验显示了我们提出的方法的有效性。
translated by 谷歌翻译
张量分解因其在多维数据中捕获潜在因素的固有能力而获得了越来越多的兴趣,该数据具有许多应用程序,例如推荐系统和电子健康记录(EHR)挖掘。已经提出了Parafac2及其变体来解决不规则的张量,其中一种张量模式不对齐,例如,EHR中推荐系统或患者的不同用户可能具有不同的记录。 PARAFAC2已成功应用于EHRS,用于提取有意义的医学概念(表型)。尽管有最近的进步,但当前模型的可预测性和可解释性并不令人满意,这限制了其用于下游分析的效用。在本文中,我们提出了多个多任务学习的多个监督不规则张量分解。多个多个可以灵活地包含静态(例如,院内死亡率预测)和连续或动态(例如,通风的需求)任务。通过通过下游预测任务监督张量分解并利用来自多个相关预测任务的信息,Multipar不仅可以产生更有意义的表型,而且可以为下游任务提供更好的预测性能。我们在两个现实世界中的EHR数据集上进行了广泛的实验,以证明Multipar是可扩展的,并且与现有的最新方法相比,具有更有意义的亚组和更强的预测性能,可以更好地张紧张量。
translated by 谷歌翻译